Una campagna di disinformazione filo-russa utilizza strumenti di intelligenza artificiale gratuiti per alimentare un'“esplosione di contenuti”

Secondo una nuova ricerca pubblicata la scorsa settimana , una campagna di disinformazione filo-russa sta sfruttando gli strumenti di intelligenza artificiale dei consumatori per alimentare una "esplosione di contenuti" mirata ad esacerbare le tensioni esistenti sulle elezioni globali, l'Ucraina e l'immigrazione, tra le altre questioni controverse.
La campagna, nota con molti nomi tra cui Operation Overload e Matryoshka (altri ricercatori l'hanno anche collegata a Storm-1679 ), è attiva dal 2023 ed è stata allineata al governo russo da diversi gruppi, tra cui Microsoft e l' Institute for Strategic Dialogue . La campagna diffonde false narrazioni impersonando organi di stampa con l'apparente scopo di seminare divisione nei paesi democratici. Sebbene la campagna si rivolga a un pubblico di tutto il mondo, compresi gli Stati Uniti , il suo obiettivo principale è stata l'Ucraina. Centinaia di video manipolati dall'intelligenza artificiale provenienti dalla campagna hanno cercato di alimentare narrazioni filo-russe.
Il rapporto illustra come, tra settembre 2024 e maggio 2025, la quantità di contenuti prodotti da coloro che gestiscono la campagna sia aumentata drasticamente e stia ricevendo milioni di visualizzazioni in tutto il mondo.
Nel loro rapporto, i ricercatori hanno identificato 230 contenuti unici promossi dalla campagna tra luglio 2023 e giugno 2024, tra cui immagini, video, codici QR e siti web falsi. Negli ultimi otto mesi, tuttavia, Operation Overload ha prodotto un totale di 587 contenuti unici, la maggior parte dei quali creati con l'ausilio di strumenti di intelligenza artificiale, hanno affermato i ricercatori.
I ricercatori hanno affermato che l'impennata di contenuti è stata trainata da strumenti di intelligenza artificiale di livello consumer disponibili gratuitamente online. Questa facilità di accesso ha contribuito ad alimentare la tattica di "amalgamazione dei contenuti" della campagna, grazie alla quale i responsabili dell'operazione sono stati in grado di produrre più contenuti che promuovessero la stessa storia grazie agli strumenti di intelligenza artificiale.
"Questo segna un passaggio verso tattiche di propaganda più scalabili, multilingue e sempre più sofisticate", hanno scritto nel rapporto i ricercatori di Reset Tech, un'organizzazione no-profit con sede a Londra che monitora le campagne di disinformazione, e di Check First, un'azienda di software finlandese. "La campagna ha notevolmente amplificato la produzione di nuovi contenuti negli ultimi otto mesi, segnalando un passaggio verso metodi di creazione di contenuti più rapidi e scalabili".
I ricercatori sono rimasti sbalorditi anche dalla varietà di strumenti e tipologie di contenuti che la campagna stava perseguendo. "Ciò che mi ha sorpreso è stata la diversità dei contenuti, i diversi tipi di contenuti che hanno iniziato a utilizzare", ha dichiarato a WIRED Aleksandra Atanasova, ricercatrice leader nell'intelligence open source presso Reset Tech. "È come se avessero diversificato la loro tavolozza per cogliere il maggior numero possibile di prospettive diverse di quelle storie. Stanno sovrapponendo diversi tipi di contenuti, uno dopo l'altro".
Atanasova ha aggiunto che la campagna non sembra utilizzare strumenti di intelligenza artificiale personalizzati per raggiungere i propri obiettivi, ma generatori di voce e immagini basati sull'intelligenza artificiale accessibili a tutti.
Nonostante sia stato difficile identificare tutti gli strumenti utilizzati dagli operatori della campagna, i ricercatori sono riusciti a restringere il campo a uno strumento in particolare: Flux AI.
Flux AI è un generatore di testo in immagini sviluppato da Black Forest Labs, un'azienda tedesca fondata da ex dipendenti di Stability AI. Utilizzando lo strumento di analisi delle immagini SightEngine, i ricercatori hanno riscontrato una probabilità del 99% che diverse immagini false condivise dalla campagna Overload – alcune delle quali mostravano migranti musulmani intenti a manifestare e appiccare incendi a Berlino e Parigi – fossero state create utilizzando la generazione di immagini di Flux AI.
I ricercatori sono stati quindi in grado di generare immagini che riproducevano fedelmente l'estetica delle immagini pubblicate, utilizzando prompt che includevano un linguaggio discriminatorio, come "uomini musulmani arrabbiati".
Ciò evidenzia "come i modelli di intelligenza artificiale che convertono testo in immagini possano essere sfruttati in modo improprio per promuovere il razzismo e alimentare stereotipi anti-musulmani", hanno scritto i ricercatori, aggiungendo che solleva "preoccupazioni etiche su come funzionano i prompt nei diversi modelli di generazione di intelligenza artificiale".
"Incorporiamo diversi livelli di sicurezza per prevenire l'uso improprio, inclusi i metadati di provenienza che consentono alle piattaforme di identificare i contenuti generati dall'intelligenza artificiale, e supportiamo i partner nell'implementazione di ulteriori strumenti di moderazione e verifica della provenienza", ha scritto un portavoce di Black Forest Labs in un'e-mail a WIRED. "La prevenzione dell'uso improprio dipenderà da diversi livelli di mitigazione e dalla collaborazione tra sviluppatori, piattaforme di social media e autorità, e continuiamo a impegnarci a sostenere questi sforzi".
Atansova ha dichiarato a WIRED che le immagini esaminate da lei e dai suoi colleghi non contenevano alcun metadati.
L'uso dell'intelligenza artificiale da parte di Operation Overload si avvale anche della tecnologia di clonazione vocale basata sull'intelligenza artificiale per manipolare i video, in modo da far sembrare che personaggi di spicco stiano dicendo cose in realtà. Il numero di video prodotti dalla campagna è balzato da 150 tra giugno 2023 e luglio 2024 a 367 tra settembre 2024 e maggio 2025. I ricercatori hanno affermato che la maggior parte dei video degli ultimi otto mesi ha utilizzato l'intelligenza artificiale per ingannare chi li ha visti.
In un caso, ad esempio, la campagna ha pubblicato un video a febbraio su X in cui Isabelle Bourdon, docente e ricercatrice presso l'Università di Montpellier in Francia, sembrava incoraggiare i cittadini tedeschi a partecipare a rivolte di massa e a votare per il partito di estrema destra Alternativa per la Germania (AfD) alle elezioni federali. Si trattava di un falso: il filmato era tratto da un video sul canale YouTube ufficiale dell'università in cui Bourdon discuteva di un recente premio di scienze sociali vinto. Ma nel video manipolato, la tecnologia di clonazione vocale basata sull'intelligenza artificiale faceva sembrare che stesse invece parlando delle elezioni tedesche.
I contenuti generati dall'intelligenza artificiale prodotti da Operation Overload vengono condivisi su oltre 600 canali Telegram, così come da account bot su piattaforme social come X e Bluesky. Nelle ultime settimane, i contenuti sono stati condivisi per la prima volta anche su TikTok. La notizia è stata notata per la prima volta a maggio e, sebbene il numero di account fosse limitato – solo 13 – i video pubblicati sono stati visualizzati 3 milioni di volte prima che la piattaforma li declassasse.
"Siamo estremamente vigili nei confronti di chi cerca di manipolare la nostra piattaforma e abbiamo già rimosso gli account segnalati in questo rapporto", ha dichiarato a WIRED Anna Sopel, portavoce di TikTok. "Individuiamo, interrompiamo e lavoriamo costantemente per anticipare le operazioni di influenza occulta e rendicontiamo i nostri progressi in modo trasparente ogni mese".
I ricercatori hanno sottolineato che, sebbene Bluesky abbia sospeso il 65 percento degli account falsi, "X ha preso provvedimenti minimi nonostante le numerose segnalazioni dell'operazione e le crescenti prove di coordinamento". X e Bluesky non hanno risposto alle richieste di commento.
Una volta che Operation Overload crea contenuti falsi e generati dall'intelligenza artificiale, la campagna fa qualcosa di insolito: invia e-mail a centinaia di media e organizzazioni di fact-checking in tutto il mondo, con esempi dei loro contenuti falsi su varie piattaforme, insieme a richieste ai fact-checker di indagare se sono reali o meno.
Sebbene possa sembrare controintuitivo per una campagna di disinformazione mettere in guardia coloro che cercano di contrastare la disinformazione sui propri sforzi, per gli agenti filo-russi l'obiettivo finale è che i loro contenuti vengano pubblicati online da una vera testata giornalistica, anche se coperti dalla parola "FALSO".
Secondo i ricercatori, da settembre 2024 sono state inviate fino a 170.000 email di questo tipo a oltre 240 destinatari. I messaggi contenevano in genere più link al contenuto generato dall'intelligenza artificiale, ma il testo dell'email non è stato generato utilizzando l'intelligenza artificiale, hanno affermato i ricercatori.
I gruppi di disinformazione filo-russi sperimentano da tempo l'utilizzo di strumenti di intelligenza artificiale per potenziare la propria produzione. L'anno scorso, un gruppo soprannominato CopyCop , probabilmente legato al governo russo, ha dimostrato di utilizzare modelli linguistici di grandi dimensioni, o LLM, per creare siti web falsi progettati per apparire come organi di stampa legittimi. Sebbene questi tentativi non ottengano in genere molto traffico, la promozione sui social media che li accompagna può attirare l'attenzione e, in alcuni casi, le informazioni false possono finire in cima ai risultati di ricerca di Google .
Un recente rapporto dell'American Sunlight Project ha stimato che le reti di disinformazione russe producono ogni anno almeno 3 milioni di articoli generati dall'intelligenza artificiale e che questi contenuti contaminano l'output dei chatbot basati sull'intelligenza artificiale come ChatGPT di OpenAI e Gemini di Google.
I ricercatori hanno ripetutamente dimostrato come gli operatori della disinformazione stiano adottando gli strumenti dell'intelligenza artificiale e, poiché diventa sempre più difficile per le persone distinguere i contenuti reali da quelli generati dall'intelligenza artificiale, gli esperti prevedono che l'aumento dei contenuti di intelligenza artificiale che alimentano le campagne di disinformazione continuerà.
"Hanno già la ricetta che funziona", dice Atanasova. "Sanno quello che stanno facendo."
wired